11月27日,索尼半導體解決方案公司宣佈將推出一款1/1.12英吋、約2億像素、並在晶片內部整合AI推理電路的CMOS感測器—— LYTIA 901。這是全球首批將AI圖像復原、電路級演算法處理與成像結構融為一體的移動影像感測器。眾所周知,圖像感測器是攝影攝像中最重要的部件,它負責將光線轉換為電訊號。在圖像感測器領域,索尼是當之無愧的引領者。自上世紀70年代起,索尼便開始研發CCD圖像感測器,即“電子眼”,並在80年代率先將其商業化。此後,索尼在該領域始終保持領先地位。2004年,索尼開始著眼於高畫質(HD)的未來,大力發展高速、低功耗的CMOS圖像感測器。自此,索尼不斷研發融合新技術的高性能CMOS圖像感測器,至今仍引領著圖像感測器領域的發展。那麼,此次索尼的這款AI CIS會不會再次引發影像革命?傳統影像路線已走到盡頭回顧智慧型手機影像的發展,我們會發現,這是一個不斷對抗物理限制的技術演化史。從鏡頭到演算法,再到堆結構,行業試過所有能走的路徑,如今,這條路已經接近盡頭。第一個階段是光學時代(2010–2016),這一時期的影像升級邏輯非常簡單:硬體越強,畫面越好。從800萬像素到1200萬像素,再到更大的光圈、更長的焦距、更厚的模組,幾乎每一代旗艦手機都能在夜景、細節、色彩上帶來直接肉眼可見的差異。但很快行業意識到:手機不是單反,它受體積限制,鏡頭和感測器不可能無限做大。至此,第一條路走到了天花板。接著來到了計算攝影時代(2017–2023),用演算法彌補物理上的限制。從Google Pixel 2 開始,行業出現第一句真正意義上的影像趨勢口號:不是硬體決定畫質,是演算法決定畫質。於是,HDR、夜景模式、多幀融合、語義識別、AI降噪、RAW域處理等等些技術改變了智慧型手機的成像方式,讓手機能夠拍出“看起來比肉眼還清楚”的畫面。這時,影像不再只是感測器採集的結果,而變成了硬體+演算法+晶片算力協同發力。但問題隨之出現:隨著算力需求翻倍增長,多幀堆疊導致拍攝延遲,處理耗電顯著增加,因此就讓演算法繼續變強,但成本也繼續飆升,瓶頸再次出現。然後又來到了結構堆疊時代(2021–2024),多攝系統開始上場。由於單攝難以覆蓋廣角、中焦、長焦需求,各大廠商開始加超廣角、加2x人像鏡頭、加5x/10x潛望式鏡頭、加ToF深感模組輔助演算法。當然這不是為了畫質才需要這麼多攝影機,而是為了繞過物理焦段限制。然而,隨著這一路線持續推進,行業又遇到了三個尖銳現實:1)眾所周知,現在的手機攝影機越來越多,佔據的面積也越來愈大,手機的影像模組已佔整機體積的25–40%;2)隨著攝影機數量的不斷增加,每新增一個鏡頭,演算法工程量不是線性增加,而是幾何級增加;3)HDR疊幀、夜景、超解析度演算法,每一步都需要ISP/NPU參與,這意味著手機發熱更高、續航下降、視訊錄製時長受限,而消費者已經不願意為手機影像犧牲續航和機身厚度。換句話說,性能投入曲線越來越陡,但使用者感知曲線越來越平。通過堆料換體驗,已經無法繼續驅動影像革命。所以問題出現了,如果不能再堆光學硬體,那影像體驗還能怎麼提升?如果說過去十年行業解決的問題是——手機如何拍得更真實?那麼,未來十年要解決的是——裝置如何在成像時就理解真實?而AI進入感測器——就是這條新路線的起點。AI進入感測器,是技術路線的重大拐點索尼 LYTIA 901最大的突破,並不是“2億像素”,而是AI第一次從後端演算法棧,進入前端採集層,這是移動影像架構的部分重構。為了充分發揮約2億有效像素的高解析度優勢,這款新產品採用了四倍四倍拜耳編碼(QQBC)陣列,其中16個(4×4)相鄰像素通過相同顏色的濾鏡進行聚類。在正常拍攝時,這16個聚類像素的訊號作為一個像素單元進行處理,使相機即使在夜間或昏暗的室內拍攝條件下也能保持高感光度。另一方面,在變焦拍攝時,一種稱為重馬賽克的陣列轉換處理會將聚類像素還原為普通的像素陣列,從而實現高解析度成像。索尼指出,將QQBC陣列還原為普通像素陣列的陣列轉換處理(重馬賽克)需要極其複雜的計算過程。針對這款產品,索尼開發了一種基於人工智慧學習的全新QQBC陣列重馬賽克技術,並將處理電路整合到感測器內部,這再次刷新了索尼在業界的紀錄。這項新技術能夠處理通常難以再現的高頻份量訊號,從而更出色地還原精細圖案和文字等細節。此外,將基於人工智慧學習的重馬賽克技術直接整合到感測器中,實現了高速處理,並在4K解析度下以最高4倍變焦拍攝時,能夠以高達30幀/秒的速度進行高品質視訊錄製。一句話總結:過去是拍到什麼就處理什麼,現在是邊拍邊理解、邊復原。要知道,過去傳統演算法能力取決於手機廠商,如小米調色味道、蘋果HDR策略、華為夜景演算法等等,然而感測器整合AI意味著:演算法從手機廠“私有能力”,變成影像硬體的“原生功能”。因此,未來手機廠之間的差距,將更多來源於生態閉環與場景理解能力,而不是HDR曲線怎麼調。此外,這也將帶來延遲與能耗斷崖式改善。傳統上,高倍變焦、夜景演算法、超解析度處理,傳統方案需要SoC調度ISP/NPU,整個鏈路功耗巨大。當AI處理直接發生在Sensor側:ISP壓力下降、NPU無需介入每一幀變焦處理、持續錄製能力、散熱表現顯著提升。當然,這不是說感測器內 AI 永遠更省電,而是說它在“高吞吐、頻繁呼叫、資料搬運佔主導”的任務上更划算。尤其在視訊變焦與即時預覽場景中:若每幀都要 SoC 端承擔重建與重馬賽克,DRAM/頻寬/調度開銷會顯著上升;感測器端完成一部分重建,相當於“把高頻任務前移”,對整機功耗與延遲更友好。這為XR裝置、長時錄製、多鏡頭同步採集打開了現實路徑。誰將受到影響?在索尼的宣傳文案中,有一句值得深思:“即使在單目相機上進行高達4倍的變焦,也能實現高畫質影像品質,為移動相機拍攝帶來全新的體驗價值。”這一句話對手機產業可能意味著:多攝體系依賴正在鬆動,光學變焦不再必須靠物理焦段。長期以來,多攝主要是為瞭解決長焦 vs 超廣角視角衝突、光學定焦鏡頭無法覆蓋連續變焦、感測器無法在縮放時維持紋理質量等問題。而AI重建 + 大底 + 高像素 = 連續變焦方案替代多攝結構。因此,產業鏈層面會可能出現兩個變化:第一是鏡頭數量下降的壓力,從“三攝/四攝標配”向“二攝/三攝”回歸;第二,模組結構重新排序,主攝的價值進一步上升,次攝的邊際價值下降。這會讓一些依賴長焦模組出貨增長的環節(鏡頭、模組、VCM馬達、校準服務)面臨壓力。(圖源:索尼)除此之外,ISP/演算法團隊與手機品牌影像“話語權”也可能會發生動搖。如前文所述,感測器整合AI意味著演算法的一部分從手機端(ISP/NPU)下沉到感測器端。影像權力中心可能從“手機演算法團隊”部分回歸到“感測器廠 + 端側模型棧”。索尼也將這款產品看的很重,因為索尼在新聞稿中提到,為了提高 LYTIA 產品品牌的知名度,從“LYTIA 901”開始,所有未來以該品牌推出的產品都將遵循統一的命名格式“LYTIA(產品編號)”。結語從產業演進規律看,每一次CIS路線轉折都發生在舊路徑的邊際收益顯著下降之時:硬體堆疊越來越貴、演算法融合越來越複雜、功耗與體積越來越難以妥協。索尼最新的 LYTIA 901,把 AI 推理電路直接整合到 CMOS Sensor 內部,標誌著移動影像從“像素競賽”邁入“AI 原生成像”的新階段。它撬動的並不是某一顆鏡頭的市場,而是整個影像系統的工程範式:手機影像正在從“多模組堆疊”轉向“單攝計算平台”,由感測器在採集瞬間完成更多復原與重建,把計算鏈路前移到最靠近光訊號的地方——這正是其效率、延遲與功耗優勢的根源。 (半導體行業觀察)